查看原文
其他

国际文化节 | 极客星空沙龙第二期回顾:What Ethics for AI & Robots?

极客实验室 GeeklabPKU 2020-09-30




极客星空沙龙 第二期

精典回顾

What Ethics for AI & Robots?

影评:电影小王主演:

快进   快退   播放



极客星空沙龙



仰望星空,听每一颗星星闪烁的声音

凝视银河,看每一个生命璀璨的亮点


北京大学极客实验室星空沙龙

充满科技、人文、艺术的跨界碰撞与交锋

我们倾听、我们探索、我们思考、我们创造

这里有脑力高能的极客

有跨越边界的学术大咖

有翻潮弄浪的黑科技大佬

有酷艺术的科技大牛

有酷音乐的极乐神人

有文化创意的美学家

还有热爱生活的美食家

  

我们尊重人文关照,实现艺术创意

我们鼓励有情怀的科技创新

为人类创造更美好的世界



主讲人介绍



 

刘哲,北京大学哲学系长聘副教授,比利时鲁汶天主教大学哲学博士,北京大学哲学系副系主任。目前主要研究领域:德国古典哲学、德国和法国现象学、心灵哲学和主体性理论。




引言:2018年3月20日,美国亚利桑那州,一辆无人驾驶测试车Uber在路试时意外与一名骑车妇女相撞,导致妇女的死亡。对于当下的我们而言,AI和机器人不再是科幻小说独占的技术。当AI和机器人逐渐走进我们的生活,对于它们的规范性反思也颇在眉睫。人们迫不及待地问:事故发生时谁来负责?比法律责任更难归属的,是伦理责任。AI和机器人既然没有“自我意识”,它们需要承担它们的行为的伦理责任吗?


1



10月18日晚6:30,刘哲教授在二体地下报告厅B101为同学们带来了题为“人工智能和机器人需要什么伦理”的主题讲座。刘哲教授言简意赅的讲述穿插以引人深思的真实事例与思想实验,带领同学们踏上了一场对当代人工智能技术高度发展背景下潜在的伦理问题与思考的探索。

讲座内容深入浅出、引人入胜。讲座现场气氛非常活跃,在刘哲教授与同学们的不断互动中,对于讲座主题的探讨进程不断推进。在短短的120分钟里,刘哲教授与同学们从何为“好AI与好机器人”谈到了“AI与机器人可以有伦理价值吗?”“何种伦理?”,最后落脚于“去人类中心主义的伦理视角”。

 此时此刻,展开在我们每个人面前的,是这样的一副未来图景:人工智能不断被技术顶尖国家给予国家战略级的重视和投资,教育、医学等重要领域的发展以人工智能作为技术的重要突破口,我们每个人的生活都越来越离不开人工智能的得力协助……而与此同时,另一方面,人工智能发展所带来的各种现象和问题日益复杂,亟需人们对人工智能的性质和伦理后果进行反思。

人们享受着人工智能所提供的大大小小的便利与福利,也应意识到适当的伦理考量的必要性。当下国际,人工智能与机器人方向的伦理导则、制度文件、白皮书总共仅有五十三份;但眼下已经在日益浮现的各类涉及人工智能与机器人的事故以及发生在人们意料之外的情况都在不断告诫我们:我们需要进行一些伦理反思。

问题在于:人工智能需要什么样的伦理?提到“人工智能与机器人伦理”,很多人尚还以为是在技术和制度层面给AI设计一个“防火圈”,但问题并不是这么简单。面对这个社会性的、将会影响人类后代的、有各种各样不同声音和争论的重要议题,我们需要哲学的反思。


2


案例分析


全球报道的第一起无人驾驶汽车的事故Joshua D. Brown:

2016年5月7日,美国佛罗里达州威利斯顿的一个路口,曾于军队服役的40岁男子Joshua D. Brown“驾驶”的特斯拉无人驾驶汽车与一辆卡车发生猛烈撞击,Brown本人当场死亡。事故发生时,Joshua D. Brown开启了汽车的自动驾驶模式,但晴朗的天空背景下,自动驾驶系统无法探测到白色的重型卡车,因此没有采取制动措施。一个多月后,特斯拉和美国国家公路交通安全局公布了此次事故,在全球引起轩然大波。

值得注意的是,事故的调查显示,在37分钟的自动巡航时间中,Brown七次被汽车系统提醒要求手握方向盘,然而他仅仅握了25秒。在碰撞发生前至少7秒,Brown无论如何应该已经看到了该卡车;但是,在事故即将发生的两分钟内,Brown既没有踩刹车,也没有进行转向或其他操作——他最后的操作是把车速设定在了每小时119公里。

如果你是一个百万富翁,你愿意购买这样的无人驾驶汽车吗?

复杂系统的本性就在于不可预测性和易于受突发因素影响而产生偏差。如果完美的人工智能和机器人系统仅仅是一个完美的乌托邦,那么绝对安全的人工智能和机器人就是永远不会获得的。

如果是这样,我们还愿意接受自己身边的人工智能和机器人吗?

在人工智能领域目前达成的国际共识是:这个颠覆性的技术需要伦理价值。


3


案例分析


无人驾驶中的轨道车难题:

假设一辆大型无人驾驶汽车(由于在冰面上打滑)将要撞上前方了,它的前方是一辆搭载5位乘客的小型面包车。如果它正撞上前方的这辆车,那么5位乘客必死无疑。然而,这辆无人驾驶汽车发现它正在接近一个交叉路口,为了避免撞上前方的面包车,它可以紧急转向,先与另外一辆双座小汽车相撞,这样可以救下面包车里那5位乘客的性命,可不幸的是会撞死敞篷车里的那个人。

现在,如果这辆无人驾驶汽车的制造者是你,你将如何设计这辆无人驾驶汽车的决策程序?

这个问题是伦理学领域一直以来最受盛名的思想实验“电车难题”的变体,这个问题曾经被很多人认为仅仅存在于思想者们的脑海中,因为在汽车撞人的千钧一发之际,在可能只有不到一秒的反应时间里,人们几乎不可能做出理性的推断和选择。但是——计算机可以。

随着人工智能的发展,“电车难题”毋庸置疑作为一个真正的问题被摆在了我们面前。现在,面对包括电车难题在内的诸多难以回应的伦理问题,我们必须要做出自己的思考和理性抉择。


4


探讨问题


面对人工智能和机器人的不断发展,我们需要的是何种伦理?

耶鲁大学跨学科中心生物伦理学顾问温德尔·华莱士与美国洛杉矶加州大学逻辑与语言哲学博士、印第安纳大学科学史和科学哲学系教授科林·艾伦在《道德机器—如何让机器人明辨是非》(Moral Machine- Thinking Robots Right From Wrong)一书中写道:“A concern for safety and societal benefits has always been at the forefront of engineering. But today’s systems are approaching a level of complexity that, we argue, requires the systems themselves to make moral decisions-to be programmed with ‘ethical subroutines’, to borrow a phrase from Star Trek. This will expand the circle of moral agents beyond humans to artificially intelligent systems, which we will call artificial moral agents (AMAs).”

现在,学术界在机器伦理领域的探讨逐渐展开。随着机器伦理领域研究的不断开展和推进,计算机伦理领域所直面的问题从仅仅的“人们应该如何看待和应用计算机”扩展开来,亟需我们去探讨的还有关于“机器本身会如何去自主地运行”等问题。

对此,刘哲教授认为,近代以来的伦理理论以人类中心主义为基础框架,人类的行为(目的、动机、规则和结果)成为全部道德价值的载体。尽管人工智能和机器人的自主性不断提升,它们既无法简单等同为人这种道德能动者,或许也根本无法以人作为范式来承载伦理价值。因此,人工智能和机器人伦理需要去人类中心主义的伦理视角。


精彩瞬间




下期"极客星空沙龙"预告



电影已成为人类认知世界、表达感知经验的重要载体人。8K技术将颠覆传统电影美学,传统艺术将再次“激活”。虚拟明星、未来制片、交互电影.....电影同样可以改变你的未来。

主题:电影与未来影像 

主讲人:孙立军  北京电影学院副校长、教授

时间:2019年10月25日18:30—20:30

地点:北京大学燕京学堂二体地下报告厅B101




总策划及美编:田英一 

文字:王雨竹 李逸云 

图片:吴柏榕




喜欢极客,加我关注


Modified on

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存